结构磁共振成像研究表明,大脑解剖异常与早产儿的认知缺陷有关。脑成熟和几何特征可以与机器学习模型一起使用,以预测以后的神经发育缺陷。但是,传统的机器学习模型将遭受较大的功能比率(即大量功能,但少数实例/样本)。合奏学习是一种范式,从战略上生成和集成了机器学习分类器库,并已成功地用于各种预测性建模问题,以提高模型性能。属性(即功能)包装方法是最常用的特征分区方案,它随机和反复从整个功能集中绘制特征子集。尽管属性装袋方法可以有效地降低特征维度以处理大型功能与实用比率,但它缺乏对域知识和特征之间的潜在关系的考虑。在这项研究中,我们提出了一种新型的本体论引导属性分区(OAP)方法,以通过考虑特征之间的特定于域的关系来更好地绘制特征子集。有了更好的分区功能子集,我们开发了一个合奏学习框架,该框架称为OAP汇总学习(OAP-EL)。我们应用了OAP-EL,以使用定量脑成熟和在非常早产的年龄在期限年龄获得的定量脑成熟和几何特征来预测2岁年龄的认知缺陷。我们证明,提出的OAP-EL方法显着优于同行集合学习和传统的机器学习方法。
translated by 谷歌翻译
We investigate whether three types of post hoc model explanations--feature attribution, concept activation, and training point ranking--are effective for detecting a model's reliance on spurious signals in the training data. Specifically, we consider the scenario where the spurious signal to be detected is unknown, at test-time, to the user of the explanation method. We design an empirical methodology that uses semi-synthetic datasets along with pre-specified spurious artifacts to obtain models that verifiably rely on these spurious training signals. We then provide a suite of metrics that assess an explanation method's reliability for spurious signal detection under various conditions. We find that the post hoc explanation methods tested are ineffective when the spurious artifact is unknown at test-time especially for non-visible artifacts like a background blur. Further, we find that feature attribution methods are susceptible to erroneously indicating dependence on spurious signals even when the model being explained does not rely on spurious artifacts. This finding casts doubt on the utility of these approaches, in the hands of a practitioner, for detecting a model's reliance on spurious signals.
translated by 谷歌翻译
资产分配(或投资组合管理)是确定如何最佳将有限预算的资金分配给一系列金融工具/资产(例如股票)的任务。这项研究调查了使用无模型的深RL代理应用于投资组合管理的增强学习(RL)的性能。我们培训了几个RL代理商的现实股票价格,以学习如何执行资产分配。我们比较了这些RL剂与某些基线剂的性能。我们还比较了RL代理,以了解哪些类别的代理表现更好。从我们的分析中,RL代理可以执行投资组合管理的任务,因为它们的表现明显优于基线代理(随机分配和均匀分配)。四个RL代理(A2C,SAC,PPO和TRPO)总体上优于最佳基线MPT。这显示了RL代理商发现更有利可图的交易策略的能力。此外,基于价值和基于策略的RL代理之间没有显着的性能差异。演员批评者的表现比其他类型的药物更好。同样,在政策代理商方面的表现要好,因为它们在政策评估方面更好,样品效率在投资组合管理中并不是一个重大问题。这项研究表明,RL代理可以大大改善资产分配,因为它们的表现优于强基础。基于我们的分析,在政策上,参与者批评的RL药物显示出最大的希望。
translated by 谷歌翻译
天然气管道中的泄漏检测是石油和天然气行业的一个重要且持续的问题。这尤其重要,因为管道是运输天然气的最常见方法。这项研究旨在研究数据驱动的智能模型使用基本操作参数检测天然气管道的小泄漏的能力,然后使用现有的性能指标比较智能模型。该项目应用观察者设计技术,使用回归分类层次模型来检测天然气管道中的泄漏,其中智能模型充当回归器,并且修改后的逻辑回归模型充当分类器。该项目使用四个星期的管道数据流研究了五个智能模型(梯度提升,决策树,随机森林,支持向量机和人工神经网络)。结果表明,虽然支持向量机和人工神经网络比其他网络更好,但由于其内部复杂性和所使用的数据量,它们并未提供最佳的泄漏检测结果。随机森林和决策树模型是最敏感的,因为它们可以在大约2小时内检测到标称流量的0.1%的泄漏。所有智能模型在测试阶段中具有高可靠性,错误警报率为零。将所有智能模型泄漏检测的平均时间与文献中的实时短暂模型进行了比较。结果表明,智能模型在泄漏检测问题中的表现相对较好。该结果表明,可以与实时瞬态模型一起使用智能模型,以显着改善泄漏检测结果。
translated by 谷歌翻译
文本到文本变压器在多任务转移学习的任务中表现出色,尤其是在自然语言处理(NLP)方面。但是,尽管已经有几次尝试在不同域上训练变压器,但这些域之间通常存在明确的关系,例如,代码摘要,自然语言摘要描述了代码。很少有尝试研究多任务转移学习如何在显着不同领域的任务上工作的方法。在这个项目中,我们使用多域文本到文本传输变压器(MD-T5)在两个域中的四个域 - Python Code和Chess上研究了多域,多任务学习的行为。我们使用三种流行的培训策略进行了广泛的实验:BERT风格的联合预处理 +连续的登录,GPT式关节预处理 +连续登录以及GPT风格的关节预处理 +关节登录。此外,我们评估了四个指标的模型 - 播放得分,评估得分,BLEU得分和多域学习分数(MDLS)。这些指标衡量各种任务和多域学习的性能。我们表明,尽管负面的知识转移和灾难性遗忘仍然是所有模型的巨大挑战,但GPT风格的联合预处理 +联合登录策略在多域,多任务学习中表现出最大的希望,因为它在所有四个任务中都表现良好同时仍保持其多域知识。
translated by 谷歌翻译
对于诸如银行和医疗保健等高度监管的行业,采用云计算的主要障碍之一是遵守监管标准。由于公司需要遵守的许多监管和技术规范(TechSpec)文件,这是一个复杂的问题。关键的问题是建立TechSpecs和法规控制之间的映射,以便从第一天开始,公司可以遵守最少的努力法规。我们证明了一种使用人工智能(AI)技术自动分析监管标准的方法的实用性。我们提出了早期的结果,以确定TechSpecs和监管控制之间的映射,并讨论该解决方案必须完全实用的挑战。
translated by 谷歌翻译
组织在云环境中努力处理纯粹的漏洞。用于优先考虑漏洞的事实方法是使用共同的漏洞评分系统(CVSS)。但是,CVSS具有固有的局限性,使其不理想优先级。在这项工作中,我们提出了一种优先考虑漏洞的新方法。我们的方法灵感来自进攻安全从业人员如何执行渗透测试。我们通过对大型客户进行现实世界案例研究评估我们的方法,以及机器学习的准确性,使过程端到端自动化。
translated by 谷歌翻译
Saliency methods have emerged as a popular tool to highlight features in an input deemed relevant for the prediction of a learned model. Several saliency methods have been proposed, often guided by visual appeal on image data. In this work, we propose an actionable methodology to evaluate what kinds of explanations a given method can and cannot provide. We find that reliance, solely, on visual assessment can be misleading. Through extensive experiments we show that some existing saliency methods are independent both of the model and of the data generating process. Consequently, methods that fail the proposed tests are inadequate for tasks that are sensitive to either data or model, such as, finding outliers in the data, explaining the relationship between inputs and outputs that the model learned, and debugging the model. We interpret our findings through an analogy with edge detection in images, a technique that requires neither training data nor model. Theory in the case of a linear model and a single-layer convolutional neural network supports our experimental findings 2 . * Work done during the Google AI Residency Program. 2 All code to replicate our findings will be available here: https://goo.gl/hBmhDt 3 We refer here to the broad category of visualization and attribution methods aimed at interpreting trained models. These methods are often used for interpreting deep neural networks particularly on image data.
translated by 谷歌翻译